AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

人会有幻觉,大型语言模型也会有幻觉。近日,OpenAI 安全系统团队负责人 Lilian Weng 更新了博客,介绍了近年来在理解、检测和克服 LLM 幻觉方面的诸多研究成果。

来自主题: AI资讯
4697 点击    2024-07-13 19:46
全球AI竞赛,美国的优势不止英伟达

全球AI竞赛,美国的优势不止英伟达

全球AI竞赛,美国的优势不止英伟达

只要仍使用英语训练 LLM 模型,美国就还有优势。

来自主题: AI资讯
5523 点击    2024-07-03 14:26
Google AI:构建未来智能世界的创新引擎

Google AI:构建未来智能世界的创新引擎

Google AI:构建未来智能世界的创新引擎

谷歌作为全球领先的科技公司,在 AI 领域拥有深厚的积累和卓越的创新能力,在谷歌眼里,生成式 AI 带来了哪些机会?Google AI 是如何在谷歌产品中落地的?Google Cloud 提供了一系列工具和平台,如何帮助开发者构建和部署自己的专属 LLM 和 Agent?负责任的 AI 为企业带来哪些价值?

来自主题: AI资讯
8102 点击    2024-06-28 16:44
ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

上下文学习 (in-context learning, 简写为 ICL) 已经在很多 LLM 有关的应用中展现了强大的能力,但是对其理论的分析仍然比较有限。人们依然试图理解为什么基于 Transformer 架构的 LLM 可以展现出 ICL 的能力。

来自主题: AI技术研报
4130 点击    2024-06-28 11:23
“金凤花”智能体与定制认知架构的威力

“金凤花”智能体与定制认知架构的威力

“金凤花”智能体与定制认知架构的威力

很多人认为智能体(agent)是生成式人工智能的未来趋势。但对于智能体应该如何发展大家却看法不一。基于简单的链式流程的智能体还不够灵活或强大,没有真正利用好 LLM 范式,而完全自主的智能体往往又会失效,没法用。在二者之间找到平衡的“金凤花”智能体正赢得青睐。

来自主题: AI资讯
7244 点击    2024-06-25 17:30
Is Scaling All You Need? LLM收益递减,AI小厂难活命

Is Scaling All You Need? LLM收益递减,AI小厂难活命

Is Scaling All You Need? LLM收益递减,AI小厂难活命

在GPT-4发布后14.5个月里,LLM领域似乎已经没什么进步了?近日,马库斯的一句话引发了全网论战。大模型烧钱却不赚钱,搞AI的公司表示:难办!

来自主题: AI资讯
6680 点击    2024-06-21 14:14
字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果

字节豆包、武大提出 CAL:通过视觉相关的 token 增强多模态对齐效果

当前主流的视觉语言模型(VLM)主要基于大语言模型(LLM)进一步微调。因此需要通过各种方式将图像映射到 LLM 的嵌入空间,然后使用自回归方式根据图像 token 预测答案。

来自主题: AI技术研报
8382 点击    2024-06-17 19:35
万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

近年来,大语言模型(Large Language Models, LLMs)受到学术界和工业界的广泛关注,得益于其在各种语言生成任务上的出色表现,大语言模型推动了各种人工智能应用(例如ChatGPT、Copilot等)的发展。然而,大语言模型的落地应用受到其较大的推理开销的限制,对部署资源、用户体验、经济成本都带来了巨大挑战。

来自主题: AI技术研报
9135 点击    2024-06-14 10:35
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。

来自主题: AI技术研报
8597 点击    2024-06-11 10:06
To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」的新论文,探讨了LLM的不确定性量化问题,通过「迭代提示」成功将LLM的认知不确定性和偶然不确定性解耦。研究还将新推导出的幻觉检测算法应用于Gemini,结果表明,与基线方法相比,该方法能有效检测幻觉。

来自主题: AI技术研报
8591 点击    2024-06-08 19:59